Световни новини без цензура!
Един технически съвет: Как да забележите генерирани от AI deepfake изображения
Снимка: apnews.com
AP News | 2024-03-21 | 08:32:23

Един технически съвет: Как да забележите генерирани от AI deepfake изображения

ЛОНДОН (AP) — AI подправянето бързо се трансформира в един от най-големите проблеми, пред които сме изправени онлайн. Измамните фотоси, видеоклипове и аудио се популяризират вследствие на възхода и злоупотребата с принадлежности за генеративен изкуствен интелект.

С дълбоките имитации с изкуствен интелект, които се появяват съвсем всеки ден, изобразявайки всички от Тейлър Суифт до Доналд Тръмп, става все по-трудно да се разграничи кое е същинско от това, което не е. Генераторите на видео и изображения като DALL-E, Midjourney и Sora на OpenAI улесняват хората без никакви механически умения да основават deepfakes – просто въведете поръчка и системата я изплюва.

Тези подправени изображения може да наподобяват безобидни. Но те могат да бъдат употребявани за осъществяване на измами и кражба на идентичност или агитация и изборна операция.

Ето по какъв начин да избегнете машинация от deepfakes:

КАК ДА РАЗПОЗНАЕТЕ DEEPFAKE

В първите дни на deepfakes технологията надалеч не беше съвършена и постоянно оставя издайнически признаци на операция. Проверяващите обстоятелства са показали изображения с явни неточности, като ръце с шест пръста или очила с друго завършени стъкла.

Но защото AI се усъвършенства, стана доста по-трудно. Някои необятно споделяни препоръки – като търсенето на неестествени модели на намигване измежду хората в deepfake видеоклипове – към този момент не важат, сподели Хенри Айдер, създател на консултантската компания Latent Space Advisory и водещ специалист в генеративния AI.

Все отново има някои неща, които би трябвало да се търсят, сподели той.

Много AI deepfake фотоси, изключително на хора, имат електронен искра, „ изящен тип изглаждащ резултат “, който оставя кожата „ да наподобява необикновено полирана “, сподели Айдер.

Той обаче предизвести, че креативното подсещане от време на време може да отстрани този и доста други признаци на операция с ИИ.

Проверете последователността на сенките и осветлението. Често обектът е на явен фокус и наподобява безапелационно реален, само че детайлите на фона може да не са толкоз реалистични или полирани.

ВИЖТЕ ЛИЦАТА

Смяната на лица е един от най-разпространените способи за надълбоко подправяне. Експертите поучават да се вгледате деликатно в краищата на лицето. Съвпада ли тонът на кожата на лицето с останалата част от главата или тялото? Краищата на лицето остри ли са или замъглени?

Ако подозирате, че видеоклипът на говорещ човек е бил фалшифициран, погледнете устата му. Движенията на устните им съответстват ли съвършено с аудиото?

Айдер предлага да погледнете зъбите. Ясни ли са или са замъглени и по някакъв метод не дават отговор на метода, по който наподобяват в действителния живот?

Компанията за киберсигурност Norton споделя, че логаритмите към момента може да не са задоволително комплицирани, с цел да генерират обособени зъби, тъй че неналичието на контури на обособените зъби може да е улика.

МИСЛЕТЕ ЗА ПО-ГОЛЯМАТА КАРТИНА

h2>

Понякога подтекстът има значение. Замислете се дали това, което виждате, е правдоподобно.

Уебсайтът за публицистика на Poynter поучава, че в случай че видите обществена персона да прави нещо, което наподобява „ пресилено, нереалистично или не по темперамент “, това може да е бездънен фалш.

Например, ще папата в действителност да носи първокласно пухено яке, както е изобразено на известна подправена фотография? Ако го направи, няма ли да има спомагателни фотоси или видеоклипове, оповестени от законни източници?

ИЗПОЛЗВАНЕ НА AI ЗА ОТКРИВАНЕ НА ФАЛШИТИИТЕ

Друг метод е потреблението на AI за битка с AI.

Microsoft създаде инструмент за засвидетелствуване, който може да проучва фотоси или видеоклипове, с цел да даде оценка на достоверността дали са били манипулирани. FakeCatcher на производителя на чипове Intel употребява логаритми за анализиране на пикселите на изображението, с цел да дефинира дали е същинско или подправено.

Има онлайн принадлежности, които дават обещание да надушат имитации, в случай че качите файл или поставите връзка към подозрителния материал. Но някои, като автентификатора на Microsoft, са налични единствено за определени сътрудници, а не за обществеността. Това е по този начин, тъй като откривателите не желаят да подсказват неприятните артисти и да им дадат по-голямо преимущество в надълбоко подправената конкуренция във въоръжаването.

Отвореният достъп до принадлежности за разкриване може също по този начин да сътвори у хората усещането, че са „ богоподобни технологии, които могат да изнесат сериозното мислене вместо нас “, когато вместо това би трябвало да сме наясно с техните ограничавания, сподели Айдер.

ПРЕПЪЧНИЦИТЕ ПРЕД ОТКРИВАНЕТО НА ФАЛШИТИ

Като се има поради всичко това, изкуственият разсъдък напредва с стремглава скорост и AI моделите се образоват на интернет данни, с цел да създават все по-висококачествено наличие с по-малко дефекти.

Това значи, че няма гаранция, че този съвет ще продължи да е годен даже след година.

Експертите споделят, че даже може да е рисково да се натовари елементарните хора да станат цифрови Шерлоци, тъй като това може да им даде подправено възприятие на убеденост, защото става все по-трудно, даже за опитни очи, да виждат дълбоки имитации.

___

Суенсън заяви от Ню Йорк.

___

Асошиейтед прес получава поддръжка от няколко частни фондации, с цел да усъвършенства своето обяснително отразяване на изборите и демокрацията. Вижте повече за самодейността за народна власт на AP тук. AP е само виновен за цялото наличие.

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!